在线学习环境(即联合学习(FL))中,合作学习范式的迅速增加。与大多数FL设置不同,在许多情况下,代理商具有竞争力。每个代理商都想向他人学习,但是它为他人分享的信息的一部分可能很敏感。因此,它希望其隐私。这项工作调查了一组代理人同时工作,以解决类似的组合匪徒问题,同时保持质量约束。这些代理商可以通过使用差异隐私来保密其敏感信息的同时学习敏感信息吗?我们观察到交流可以减少遗憾。但是,保护敏感信息的差异隐私技术使数据嘈杂,并且可能会恶化,而不是帮助改善遗憾。因此,我们注意到,必须决定何时交流以及学习哪些共享数据以学会在遗憾和隐私之间取得功能平衡。对于这样的联合组合MAB设置,我们提出了一个保护隐私的联合联合组合匪徒,P-FCB。我们通过模拟说明了P-FCB的功效。我们进一步表明,我们的算法在遗憾方面提供了改善,同时维护质量阈值和有意义的隐私保证。
translated by 谷歌翻译
我们认为在数据异质性下实现联合学习(FL)的公平分类问题。为公平分类提出的大多数方法都需要不同的数据,这些数据代表了所涉及的不同人口群体。相比之下,每个客户端都是拥有仅代表单个人口统计组的数据。因此,在客户级别的公平分类模型无法采用现有方法。为了解决这一挑战,我们提出了几种聚合技术。我们通过比较Celeba,UTK和Fairace数据集上产生的公平度量和准确性来凭经验验证这些技术。
translated by 谷歌翻译